# 微服务入门

# 走向单体地狱

# 系统架构遵循的三个标准

  • 提高敏捷性:及时响应业务需求,促进企业发展
  • 提升用户体验:提升用户体验,减少用户流失
  • 降低成本:降低增加产品、客户或业务方案的成本

# 传统的开发模式

传统的 WEB 开发方式一般被称为 单体式开发(Monolithic),既所有的功能打包在一个 WAR 包里,基本没有外部依赖(除了容器),部署在一个 JavaEE 容器(Tomcat,JBoss,WebLogic)里,包含了 DO/DAO,Service,UI 等所有逻辑。

# 优点

  • 开发简单,集中式管理
  • 基本不会重复开发
  • 功能都在本地,没有分布式的管理和调用消耗

# 缺点

  • 效率低:开发都在同一个项目改代码,相互等待,冲突不断
  • 维护难:代码功功能耦合在一起,新人不知道何从下手
  • 不灵活:构建时间长,任何小修改都要重构整个项目,耗时
  • 稳定性差:一个微小的问题,都可能导致整个应用挂掉
  • 扩展性不够:无法满足高并发下的业务需求

# 微服务开发模式

有效的拆分应用,实现敏捷开发和部署

# 微服务的引入

微服务这个概念是 2012 年出现的,作为加快 Web 和移动应用程序开发进程的一种方法。2014年 Martin Fowler 的一篇博客详细介绍了该架构风格与 SOA 的区别,开始受到各方的关注,同年为微服务的元年;

# 概念

微服务架构是一种架构思想,旨在通过将功能分解到各个离散的服务中从而降低系统的耦合性。真正是采用分布式系统来开发,围绕业务领域(可学习 DDD)组件来创建应用。这些应用可独立地进行开发、管理和迭代。在分散的组件中使用云架构和平台式部署、管理和服务功能,使产品交付变得更加简单。

# 特征

官方的定义

  • 一系列的独立的服务共同组成系统
  • 单独部署,跑在自己的进程中
  • 每个服务为独立的业务开发
  • 分布式管理
  • 非常强调隔离性

大概的标准

  • 分布式服务组成的系统
  • 按照业务,而不是技术来划分组织
  • 做有生命的产品而不是项目
  • 强服务个体和弱通信( Smart endpoints and dumb pipes )
  • 自动化运维( DevOps )
  • 高度容错性
  • 快速演化和迭代

# 目标

微服务架构要实现的三大目标:高可用、高并发、高性能

# 举例

一个微服务通常实现了一组不同的特性或功能,例如订单管理、客户管理等。每一个微服务都是一个迷你应用,它自己的六边形架构包括了业务逻辑以及多个适配器。

应用程序的每个功能区域现在都由自己的微服务实现,一些微服务会暴露一个供其他微服务或应用客户端消费的 API。一些 REST API 也暴露给移动端应用以供司机和乘客使用。然而,应用不能直接访问后端服务。相反,他们之间的通信是由一个称为 API 网关 (API Gateway) 的中介负责。 API 网关负责负载均衡、缓存、访问控制、 API 计量和监控, 可以通过使用 NGINX 来实现。

开发和交付中的伸缩立方:

img

微服务架构模式相当于此伸缩立方的 Y 轴坐标,此立方是一个来自《架构即未来》 的三维伸缩模型。另外两个坐标轴是由运行多个相同应用程序副本的负载均衡器组成的X 轴坐标和 Z 轴坐标(或数据分区) ,其中请求的属性(例如,一行记录的主键或者客户标识) 用于将请求路由到特定的服务器。

在运行时,X 坐标轴上运行着服务的多个实例,每个服务配合负载均衡器以满足吞吐量和可用性。某些应用程序也有可能使用 Z 坐标轴来进行分区服务。下图展示了如何用 Docker 将 Trip Management 服务部署到 Amazon EC2 上运行。使用 Docker 部署 Trip Management 服务:

img

在运行时,Trip Management 服务由多个服务实例组成,每个服务实例是一个 Docker容器。为了实现高可用,容器是在多个云虚拟机上运行的。服务实例的之前是一个类似 NGINX 的负载均衡器,用于跨实例分发请求。负载均衡器也可以处理其他问题,如缓存、访问控制、API 度量和监控。

微服务架构模式明显影响到了应用程序与数据库之间的关系。与其他共享单个数据库模式 (schema) 服务有所不同, 其每一个服务都有自己的数据库模式。一方面,这种做法与企业级数据库数据模型的想法相背,此外,它经常导致部分数据冗余。然而,如果您想从微服务中受益,每一个服务都应该有自己的数据库模式。因为它能实现松耦合。下图展示了数据库架构示例应用程序。

每个服务都拥有各自的数据库。而且,服务可以使用一种最适合其需求、号称多语言持久架构 (polyglot persistence architecture ) 的数据库。例如,DriverManagement,要找到与潜在乘客接近的司机,就必须使用支持高效地理查询的数据库。

从表面上看,微服务架构模式类似于 SOA。微服务是由一组服务组成。然而,换另一种方式去思考微服务架构模式,它是没有商业化的 SOA,没有集成 Web 服务规范 (WS-*) 和企业服务总线 (Enterprise Service Bus, ESB) 。基于微服务的应用支持更简单、轻量级的协议,例如,REST,而不是 WS-*。他们也尽量避免使用 ESB,而是实现微服务本身具有类似 ESB 的功能。微服务架构也拒绝了 SOA 的其他部分,例如,数据访问规范模式概念。

# 优缺点

# 优点

  • 它解决了复杂问题。它把可能会变得庞大的单体应用程序分解成一套服务。虽然功能数量不变,但是应用程序已经被分解成可管理的块或者服务。每个服务都有一个明确定义边界的方式,如远程过程调用(RPC)驱动或消息驱动 API。微服务架构模式强制一定程度的模块化,实际上,使用单体代码来实现是极其困难的。因此,使用微服务架构模式,个体服务能被更快地开发,并更容易理解与维护。

  • 这种架构使得每个服务都可以由一个团队独立专注开发。开发者可以自由选择任何符合服务 API 契约的技术。当然,更多的组织是希望通过技术选型限制来避免完全混乱的状态。然而,这种自由意味着开发人员不再有可能在这种自由的新项目开始时使用过时的技术。当编写一个新服务时,他们可以选择当前的技术。此外,由于服务较小,使用当前技术重写旧服务将变得更加可行。

  • 微服务架构模式可以实现每个微服务独立部署。开发人员根本不需要去协调部署本地变更到服务。这些变更一经测试即可立即部署。比如,UI 团队可以执行 A|B 测试,并快速迭代 UI 变更。微服务架构模式使得持续部署成为可能。

  • 微服务架构模式使得每个服务能够独立扩展。您可以仅部署满足每个服务的容量和可用性约束的实例数目。此外,您可以使用与服务资源要求最匹配的硬件。例如,您可以在 EC2 Compute Optimized 实例上部署一个 CPU 密集型图像处理服务,并且在 EC2 Memory-optimized 实例上部署一个内存数据库服务。

# 缺点

  • 服务拆分不合理、过细导致服务过多难以管理。微服务的目标在于充分分解应用程序以方便应用敏捷开发和部署。

    就像 Fred Brooks 大约在 30 年前写的《人月神话》中说的,没有银弹。与其他技术一样,微服务架构模式也存在着缺点。其中一个缺点就是名称本身。微服务这个术语的重点过多偏向于服务的规模。事实上,有些开发者主张构建极细粒度的 10 至 100 LOC(代码行) 服务,虽然这对于小型服务可能比较好,但重要的是要记住小型服务只是一种手段,而不是主要目标。

  • 微服务另一个主要缺点是由于微服务是一个分布式系统,其使得整体变得复杂。开发者需要选择和实现基于消息或者 RPC 的进程间通信机制。此外,由于目标请求可能很慢或者不可用,他们必须要编写代码来处理局部故障。虽然这些并不是很复杂、高深,但模块间通过语言级方法/过程调用相互调用,这比单体应用要复杂得多。

  • 微服务的另一个挑战是分区数据库架构。更新多个业务实体的业务事务是相当普遍的。这些事务在单体应用中的实现显得微不足道,因为单体只存在一个单独的数据库。在基于微服务的应用程序中,您需要更新不同服务所用的数据库。通常不会选择分布式事务,不仅仅是因为 CAP 定理。他们根本不支持如今高度可扩展的 NoSQL 数据库和消息代理。您最后不得不使用基于最终一致性的方法,这对于开发人员来说更具挑战性。

  • 测试微服务应用程序也很复杂。例如,使用现代框架如 Spring Boot,只需要编写一个测试类来启动一个单体 web 应用程序并测试其 REST API。相比之下,一个类似的测试类对于微服务来说需要启动该服务及其所依赖的所有服务,或者至少为这些服务配置存根。再次声明,虽然这不是一件高深的事情,但不要低估了这样做的复杂性。

  • 微服务架构模式的另一个主要挑战是实现了跨越多服务变更。例如,我们假设您正在实现一个变更服务 A、服务 B 和 服务 C 的需求,其中 A 依赖于 B,且 B 依赖于 C。在单体应用程序中,您可以简单地修改相应的模块、整合变更并一次性部署他们。相反,在微服务中您需要仔细规划和协调出现的变更至每个服务。例如,您需要更新服务 C,然后更新服务 B,最后更新服务 A。幸运的是,大多数变更只会影响一个服务,需要协调的多服务变更相对较少。

  • 部署基于微服务的应用程序也是相当复杂的。一个单体应用可以很容易地部署到基于传统负载均衡器的一组相同服务器上。每个应用程序实例都配置有基础设施服务的位置(主机和端口),比如数据库和消息代理。相比之下,微服务应用程序通常由大量的服务组成。例如,据 Adrian Cockcroft 了解到,Hailo 拥有 160 个不同的服务,Netflix 拥有的服务超过 600 个。

  • 每个服务都有多个运行时实例。还有更多的移动部件需要配置、部署、扩展和监控。此外,您还需要实现服务发现机制,使得服务能够发现需要与之通信的任何其他服务的位置(主机和端口)。比较传统麻烦的基于票据(ticket-based)和手动的操作方式无法扩展到如此复杂程度。因此,要成功部署微服务应用程序,需要求开发人员能高度控制部署方式和高度自动化。

  • 一种自动化方式是使用现成的平台即服务(PaaS),如 Cloud Foundry。PaaS 为开发人员提供了一种简单的方式来部署和管理他们的微服务。它让开发人员避开了诸如采购和配置 IT 资源等烦恼。同时,配置 PaaS 的系统人员和网络专业人员可以确保达到最佳实践以落实公司策略。自动化微服务部署的另一个方式是开发自己的 PaaS。一个普遍的起点是使用集群方案,如 Kubernetes,与 Docker 等容器技术相结合。

# CAP 理论与 BASE 理论

# CAP 定理

2000 年 7 月,加州大学伯克利分校的 Eric Brewer 教授在 ACM PODC 会议上提出 CAP 猜想。2年后,麻省理工学院的 Seth Gilbert 和 Nancy Lynch 从理论上证明了 CAP。之后,CAP 理论正式成为分布式计算领域的公认定理。CAP 理论为:一个分布式系统最多只能同时满足一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance)这三项中的两项

  • 一致性(Consistency): 一致性指 (all nodes see the same data at the same time),即更新操作成功并返回客户端完成后,所有节点在同一时间的数据完全一致。
    • 强一致性:类似关系数据库 ACID,CAP 的一致性即指的是这个
    • 弱一致性:
    • 顺序一致性:
  • 可用性(Availability): 可用性指(Reads and writes always succeed),即服务一直可用,而且是正常响应时间。
  • 分区容错性(Partition tolerance): 分区容错性指(the system continues to operate despite arbitrary message loss or failure of part of the system),即分布式系统在遇到某节点或网络分区故障的时候,仍然能够对外提供满足一致性和可用性的服务。

通过 CAP 定理,我们知道无法同时满足一致性、可用性和分区容错性这三个特性,那要舍弃哪个呢?

  • 对于多数大型互联网应用的场景,主机众多、部署分散,而且现在的集群规模越来越大,所以节点故障、网络故障是常态,而且要保证服务可用性达到 N 个 9,即保证 P 和 A,舍弃C(退而求其次保证最终一致性)。虽然某些地方会影响客户体验,但没达到造成用户流程的严重程度。
  • 对于涉及到钱财这样不能有一丝让步的场景如金融级系统,C 必须保证。网络发生故障宁可停止服务,这是保证 CA,舍弃 P。貌似这几年国内银行业发生了不下 10 起事故,但影响面不大,报道也不多,广大群众知道的少。还有一种是保证 CP,舍弃 A。例如网络故障是只读不写。

# BASE 理论

eBay 的架构师 Dan Pritchett 源于对大规模分布式系统的实践总结,在 ACM 上发表文章提出 BASE 理论,BASE 理论是对 CAP 理论的延伸,核心思想是即使无法做到强一致性(Strong Consistency,CAP 的一致性就是强一致性),但应用可以采用适合的方式达到最终一致性(Eventual Consitency)

  • 基本可用(Basically Available): 基本可用是指分布式系统在出现故障的时候,允许损失部分可用性,即保证核心可用。电商大促时,为了应对访问量激增,部分用户可能会被引导到降级页面,服务层也可能只提供降级服务。这就是损失部分可用性的体现。

  • 软状态(Soft State): 软状态是指允许系统存在中间状态,而该中间状态不会影响系统整体可用性。分布式存储中一般一份数据至少会有三个副本,允许不同节点间副本同步的延时就是软状态的体现。MySQL Replication 的异步复制也是一种体现。

    • 异地双活:可采用单复数来表示不同

      image-20191116175657818
    • 异地多活:分布式 ID(UUID 字符串影响性能)

  • 最终一致性(Eventual Consistency): 最终一致性是指系统中的所有数据副本经过一定时间后,最终能够达到一致的状态。弱一致性和强一致性相反,最终一致性是弱一致性的一种特殊情况。

# ACID 和 BASE 的区别与联系

ACID 是传统数据库常用的设计理念,追求强一致性模型。BASE 支持的是大型分布式系统,提出通过牺牲强一致性获得高可用性。ACID 和 BASE 代表了两种截然相反的设计哲学,在分布式系统设计的场景中,系统组件对一致性要求是不同的,因此 ACID 和 BASE 又会结合使用。

# 高并发

# 什么是高并发

高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。高并发相关常用的一些指标有 响应时间(Response Time)吞吐量(Throughput)每秒查询率 QPS(Query Per Second)并发用户数 等。

  • 响应时间(Response Time):系统对请求做出响应的时间。例如系统处理一个 HTTP 请求需要 200ms,这个 200ms 就是系统的响应时间。
  • 吞吐量(Throughput):单位时间(年,月,日,时,分,秒)内处理的请求数量。
  • QPS(Query Per Second):每秒响应请求数。在互联网领域,这个指标和吞吐量区分的没有这么明显。
  • 并发用户数:同时承载正常使用系统功能的用户数量。例如一个即时通讯系统,同时在线量一定程度上代表了系统的并发用户数。

# 典型互联网分层架构

img
  • 客户端层: 典型调用方是浏览器或手机应用 APP
  • 反向代理层: 系统入口(Ingress),反向代理(Nginx)
  • 站点应用层: 实现核心应用逻辑,返回 HTML 或者 JSON
  • 服务层: 微服务体现在这一层
  • 数据缓存层: 缓存加速访问存储
  • 数据库层: 数据库持久化数据存储。读写分离(Master 负责写,Slave 负责读)

# 如何提升系统的并发能力

互联网分布式架构设计,提高系统并发能力的方式,方法论上主要有两种:垂直扩展(Scale Up)水平扩展(Scale Out)

# 垂直扩展

提升单机处理能力。垂直扩展的方式又有两种:

  • 增强单机硬件性能,例如增加 CPU 核数如 32 核,升级更好的网卡如万兆,升级更好的硬盘如 SSD,扩充硬盘容量如 2T,扩充系统内存如 128G;
  • 提升单机架构性能,例如使用 Cache 来减少 IO 次数,使用异步来增加单服务吞吐量,使用无锁数据结构来减少响应时间;

在互联网业务发展非常迅猛的早期,如果预算不是问题,强烈建议使用 “增强单机硬件性能” 的方式提升系统并发能力,因为这个阶段,公司的战略往往是发展业务抢时间,而 “增强单机硬件性能” 往往是最快的方法。

不管是提升单机硬件性能,还是提升单机架构性能,都有一个致命的不足:单机性能总是有极限的。所以互联网分布式架构设计高并发终极解决方案还是水平扩展。

# * 水平扩展

只要增加服务器数量,就能线性扩充系统性能。水平扩展对系统架构设计是有要求的,如何在架构各层进行可水平扩展的设计,以及互联网公司架构各层常见的水平扩展实践,是本文重点讨论的内容。

# 反向代理层的水平扩展

img

反向代理层的水平扩展,是通过 DNS 轮询 实现的:DNS Server 对于一个域名配置了多个解析 IP,每次 DNS 解析请求来访问 DNS Server,会轮询返回这些 IP。

当 Nginx 成为瓶颈的时候,只要增加服务器数量,新增 Nginx 服务的部署,增加一个外网 IP,就能扩展反向代理层的性能,做到理论上的无限高并发。

# 站点应用层的水平扩展

img

站点层的水平扩展,是通过 Nginx 实现的。通过修改 nginx.conf,可以设置多个 Web 后端。

当 Web 后端成为瓶颈的时候,只要增加服务器数量,新增 Web 服务的部署,在 Nginx 配置中配置上新的 Web 后端,就能扩展站点层的性能,做到理论上的无限高并发。

# 服务层的水平扩展

img

服务层的水平扩展,是通过 服务连接池 实现的。

站点层通过 RPC Client 调用下游的服务层 RPC Server 时,RPC Client 中的连接池会建立与下游服务多个连接,当服务成为瓶颈的时候,只要增加服务器数量,新增服务部署,在 RPC Client 处建立新的下游服务连接,就能扩展服务层性能,做到理论上的无限高并发。如果需要优雅的进行服务层自动扩容,这里可能需要配置中心里服务自动发现功能的支持。

# 数据层的水平扩展

在数据量很大的情况下,数据层(缓存,数据库)涉及数据的水平扩展,将原本存储在一台服务器上的数据(缓存,数据库)水平拆分到不同服务器上去,以达到扩充系统性能的目的。

# 按照范围水平拆分

img

每一个数据服务,存储一定范围的数据

  • user0 库,存储 uid 范围 1-1kw
  • user1 库,存储 uid 范围 1kw-2kw

优点:

  • 规则简单,Service 只需判断一下 uid 范围就能路由到对应的存储服务
  • 数据均衡性较好
  • 比较容易扩展,可以随时加一个 uid [2kw,3kw] 的数据服务

缺点:

  • 请求的负载不一定均衡,一般来说,新注册的用户会比老用户更活跃,大范围的服务请求压力会更大

# 按照哈希水平拆分

img

每一个数据库,存储某个 key 值 hash 后的部分数据

  • user0 库,存储偶数 uid 数据
  • user1 库,存储奇数 uid 数据

优点:

  • 规则简单,Service 只需对 uid 进行 hash 能路由到对应的存储服务
  • 数据均衡性较好
  • 请求均匀性较好

缺点:

  • 不容易扩展,扩展一个数据服务,hash 方法改变时候,可能需要进行数据迁移

# 水平拆分与主从同步

这里需要注意的是,通过水平拆分来扩充系统性能,与主从同步读写分离来扩充数据库性能的方式有本质的不同。

通过水平拆分扩展数据库性能

  • 每个服务器上存储的数据量是总量的 1/n,所以单机的性能也会有提升
  • n 个服务器上的数据没有交集,那个服务器上数据的并集是数据的全集
  • 数据水平拆分到了 n 个服务器上,理论上读性能扩充了 n 倍,写性能也扩充了 n 倍(其实远不止 n 倍,因为单机的数据量变为了原来的 1/n)

通过主从同步读写分离扩展数据库性能

  • 每个服务器上存储的数据量是和总量相同
  • n 个服务器上的数据都一样,都是全集
  • 理论上读性能扩充了 n 倍,写仍然是单点,写性能不变

注意: 缓存层的水平拆分和数据库层的水平拆分类似,也是以范围拆分和哈希拆分的方式居多

# 分库、分表、表分区

  • 分库:如上述按照范围、哈希分库。可取十位数字

  • 分表:可按照 ID(数字非字符串) 的个位,0~9,不同则进入不同的表

  • 表分区:类似系统分盘,按照范围查询不同分区(如数量)。

但最终也不用这种方案,可以用 NewSQL。

# 总结

高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。

提高系统并发能力的方式,方法论上主要有两种:垂直扩展(Scale Up)与水平扩展(Scale Out)。前者垂直扩展可以通过提升单机硬件性能,或者提升单机架构性能,来提高并发性,但单机性能总是有极限的,互联网分布式架构设计高并发终极解决方案还是后者:水平扩展

互联网分层架构中,各层次水平扩展的实践又有所不同:

  • 反向代理层可以通过 DNS 轮询 的方式来进行水平扩展
  • 站点层可以通过 Nginx 来进行水平扩展
  • 服务层可以通过服务连接池来进行水平扩展
  • 数据库可以按照数据范围,或者数据哈希的方式来进行水平扩展

各层实施水平扩展后,能够通过增加服务器数量的方式来提升系统的性能,做到理论上的性能无限。

# 微服务的实践

要实际的应用微服务,需要解决以下问题:

  • 客户端如何访问这些服务
    • API 网关
  • 如此多的服务,如何治理(实现)
    • 外部Client 是不能记录服务的 IP 地址的,所以需要服务的注册与发现。会有 IP Table 存放注册服务的 IP 列表
  • 每个服务之间如何通信
    • 同步
      • 对外HTTP:API 网关
        • 序列化、反序列化(分别进行2次,转字符串和转2进制)
        • 跨防火墙:WebService定义网络传输(不同局域网)只有字符串可以无条件传输
      • 对内RPC
        • 对数据进行压缩,传输效率高。序列化、反序列化(分别进行1次)
        • 不能跨防火墙:不能传输2进制过防火墙,正好同一局域网内没有防火墙
    • 异步
      • 消息队列
  • 服务挂了,如何解决?(备份方案,应急处理机制)

# 客户端如何访问这些服务

原来的 Monolithic 方式开发,所有的服务都是本地的,UI 可以直接调用,现在按功能拆分成独立的服务,跑在独立的一般都在独立的虚拟机上的 Java 进程了。

客户端 UI 如何访问他?后台有 N 个服务,前台就需要记住管理 N 个服务,一个服务 下线更新升级,前台就要重新部署,这明显不服务我们拆分的理念,特别当前台是移动应用的时候,通常业务变化的节奏更快。另外,N 个小服务的调用也是一个不小的网络开销。还有一般微服务在系统内部,通常是无状态的,用户登录信息和权限管理最好有一个统一的地方维护管理(OAuth)。

所以,一般在后台 N 个服务和 UI 之间一般会一个代理或者叫 API Gateway,他的作用包括:

  • 提供统一服务入口,让微服务对前台透明
  • 聚合后台的服务,节省流量,提升性能
  • 提供安全,过滤,流控等 API 管理功能

其实这个 API Gateway 可以有很多广义的实现办法,可以是一个软硬一体的盒子,也可以是一个简单的 MVC 框架,甚至是一个 Node.js 的服务端。他们最重要的作用是为前台(通常是移动应用)提供后台服务的聚合,提供一个统一的服务出口,解除他们之间的耦合,不过 API Gateway 也有可能成为 单点故障 点或者性能的瓶颈。

img

# 如此多的服务,如何治理

在微服务架构中,一般每一个服务都是有多个拷贝,来做负载均衡。一个服务随时可能下线,也可能应对临时访问压力增加新的服务节点。服务之间如何相互感知?服务如何管理?

这就是服务发现的问题了。一般有两类做法,也各有优缺点。基本都是通过 Zookeeper 等类似技术做服务注册信息的分布式管理。当服务上线时,服务提供者将自己的服务信息注册到 ZK(或类似框架),并通过心跳维持长链接,实时更新链接信息。服务调用者通过 ZK 寻址,根据可定制算法,找到一个服务,还可以将服务信息缓存在本地以提高性能。当服务下线时,ZK 会发通知给服务客户端。

# 基于客户端的服务注册与发现

优点是架构简单,扩展灵活,只对服务注册器依赖。缺点是客户端要维护所有调用服务的地址,有技术难度,一般大公司都有成熟的内部框架支持,比如 Dubbo。

img

# 基于服务端的服务注册与发现

优点是简单,所有服务对于前台调用方透明,一般在小公司在云服务上部署的应用采用的比较多。

img

# 每个服务之间如何通信

所有的微服务都是独立的 Java 进程跑在独立的虚拟机上,所以服务间的通信就是 IPC(Inter Process Communication),已经有很多成熟的方案。现在基本最通用的有两种方式:

# 同步调用

  • REST(JAX-RS,Spring Boot)
  • RPC(Thrift, Dubbo)

同步调用比较简单,一致性强,但是容易出调用问题,性能体验上也会差些,特别是调用层次多的时候。一般 REST 基于 HTTP,更容易实现,更容易被接受,服务端实现技术也更灵活些,各个语言都能支持,同时能跨客户端,对客户端没有特殊的要求,只要封装了 HTTP 的 SDK 就能调用,所以相对使用的广一些。RPC 也有自己的优点,传输协议更高效,安全更可控,特别在一个公司内部,如果有统一个的开发规范和统一的服务框架时,他的开发效率优势更明显些。就看各自的技术积累实际条件,自己的选择了。

# 异步消息调用

  • Kafka
  • Notify
  • MessageQueue

img

异步消息的方式在分布式系统中有特别广泛的应用,他既能减低调用服务之间的耦合,又能成为调用之间的缓冲,确保消息积压不会冲垮被调用方,同时能保证调用方的服务体验,继续干自己该干的活,不至于被后台性能拖慢。不过需要付出的代价是一致性的减弱,需要接受数据 最终一致性;还有就是后台服务一般要实现 幂等性,因为消息送出于性能的考虑一般会有重复(保证消息的被收到且仅收到一次对性能是很大的考验);最后就是必须引入一个独立的 Broker

# 服务挂了,如何解决

前面提到,Monolithic 方式开发一个很大的风险是,把所有鸡蛋放在一个篮子里,一荣俱荣,一损俱损。而分布式最大的特性就是 网络是不可靠的。通过微服务拆分能降低这个风险,不过如果没有特别的保障,结局肯定是噩梦。所以当我们的系统是由一系列的服务调用链组成的时候,我们必须确保任一环节出问题都不至于影响整体链路。相应的手段有很多:

  • 重试机制
  • 限流
  • 熔断机制
  • 负载均衡
  • 降级(本地缓存),只保证最核心业务可以使用

# 微服务的设计模式

# 微服务架构需要考虑的问题

  • API Gateway
  • 服务间调用
  • 服务发现
  • 服务容错
  • 服务部署
  • 数据调用
img

# 聚合器微服务设计模式

这是一种最常见也最简单的设计模式

img

聚合器调用多个服务实现应用程序所需的功能。它可以是一个简单的 WEB 页面,将检索到的数据进行处理展示。它也可以是一个更高层次的组合微服务,对检索到的数据增加业务逻辑后进一步发布成一个新的微服务,这符合 DRY 原则。另外,每个服务都有自己的缓存和数据库。如果聚合器是一个组合服务,那么它也有自己的缓存和数据库。聚合器可以沿 X轴Z轴 独立扩展。

# 代理微服务设计模式

这是聚合模式的一个变种,如下图所示

img

在这种情况下,客户端并不聚合数据,但会根据业务需求的差别调用不同的微服务。代理可以仅仅委派请求,也可以进行数据转换工作。API 网关模式。相比聚合器模式来说代理模式只代理请求,返回数据是由具体服务直接返回。

# 链式微服务设计模式

这种模式在接收到请求后会产生一个经过合并的响应,如下图所示

img

在这种情况下,服务A 接收到请求后会与 服务B 进行通信,类似地,服务B 会同 服务C 进行通信。所有服务都使用同步消息传递。在整个链式调用完成之前,客户端会一直阻塞。因此,服务调用链不宜过长,以免客户端长时间等待。

# 分支微服务设计模式

这种模式是聚合器模式的扩展,允许同时调用两个微服务链,如下图所示

img

# 数据共享微服务设计模式

自治是微服务的设计原则之一,就是说微服务是全栈式服务。但在重构现有的“单体应用(Monolithic Application)”时,SQL 数据库反规范化可能会导致数据重复和不一致。因此,在单体应用到微服务架构的过渡阶段,可以使用这种设计模式,如下图所示

img

在这种情况下,部分微服务可能会共享缓存和数据库存储。不过,这只有在两个服务之间存在强耦合关系时才可以。对于基于微服务的新建应用程序而言,这是一种反模式。

# 异步消息传递微服务设计模式

虽然 REST 设计模式非常流行,但它是同步的,会造成阻塞。因此部分基于微服务的架构可能会选择使用消息队列代替 REST 请求/响应,如下图所示

img

# 新架构新起点

对于微服务架构,最重要的是思维上的转变,技术不是问题,思想才是王道(有道无术,术尚可求,有术无道,止于术),对于做微服务开发的几点建议:

  • 应用程序的核心是业务逻辑,按照业务或客户需求组织资源(这是最难的)
  • 做有生命的产品,而不是项目
  • 全栈化
  • 后台服务贯彻 Single Responsibility Principle(单一职责原则)
  • VM -> Docker -> Kubernetes -> Istio
  • DevOps